지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

[마켓 나우] 오류 없는 AI 개발, ‘자유론’에 답 있다

2024년 1월 5일 알래스카항공 1282편 보잉 737 맥스9 여객기가 비행 중 측벽이 떨어져 나갔다. 2018년과 2019년에는 맥스 기종과 관련된 추락 사고가 났다.   맥스는 베스트셀러 여객기인 737시리즈의 최신형이다. 덩치가 커진 신형 고효율 엔진이 의도치 않은 양력을 발생시켜 극단적인 기수 상승에 의한 실속(失速)을 초래할 가능성이 있었다. 이에 대비해 ‘조종 특성 향상 시스템(MCAS)’이 추가됐다. 그러나 정상 운항 중인데도, 센서 고장으로 ‘급격 상승 중’이라고 잘못 판단한 MCAS는 계속 강제로 기수를 낮췄고 비행기는 추락했다.   조종사들이 시뮬레이터로 받는 집중 훈련은 거의 발생하지 않는 비정상적 상황에 대처하기, 그리고 처리 단계마다 오류 가능성을 곱씹기다. 반면 인공지능(AI)은 애초에 발생한 적이 없어 학습할 수 없었던 ‘검은 백조’ 상황에 매우 취약하다. ‘센서 오류가 있을 수 있다. 입력값이 틀릴 수도 있다’고 AI가 의심하지 않으면 사고는 필연이다.   AI 분야 석학인 UC버클리 스튜어트 러셀 교수는 ‘인간이 AI에게 목표를 직접 설정해주는 방식’으로 AI를 개발하면, AI를 통제할 수 없는 위험성이 생길 수 있다고 지난 1일 ‘AI SEOUL 2024’ 콘퍼런스에서 지적했다.   검은 백조 상황에 대한 러셀 교수의 대안은 단어 ‘스스로’에 있다. 그는 인간이 선호하는 목표를 AI ‘스스로’ 학습하면 인간을 도울 수 있는 AI가 만들어진다고 주장한다. AI도 사람처럼, 각 단계의 추론을 ‘스스로’ 의심해보고 그 종합이 궁극적 목적에 부합하는지 ‘스스로’ 따져보도록 AI를 개발해야 한다는 것이다.   AI의 궁극적인 쓸모는 AI가 스스로 ‘판단과 의사결정(judgment and decision making)’을 내리는 데서 나온다. AI가 스스로 이해해야 할 책으로 존 스튜어트 밀(1806~1873)의 『자유론』(1859)이 있다. ‘무오류의 전제를 경계하라’는 가르침을 AI도 깨닫게 하기 위해서다. ‘나는 맞으니까 옳다’가 무오류의 전제다. 밀은 내가 맞는다는 전제는 어디에도 없으니 항상 반대 의견에 감사하고, 항상 반대를 용인해야 한다고 주장했다. 내 주장이 틀릴 수 있다는 가능성을 열어두고 상대방 주장을 경청해야 참사를 낳을 수 있는 결정적인 오류를 제거할 수 있다.   AI는 인간의 문화를 학습하며 놀랍도록 닮아가고 있다. TV 정치토론에 토론자가 필요할까? 카세트플레이어를 번갈아 틀면 될 것 같다. 내용은 뻔하다. ‘나는 맞으니까 옳다’의 무한반복이다. ‘스스로 의심하기’ ‘반증 가능성 고려하기’는 사람에게도 AI에게도 꼭 필요하다. 반대를 용인하지 않은 결과는 참혹한 추락이기 때문이다. 이수화 / 한림대학교 AI융합연구원 연구교수마켓 나우 자유론 오류 오류 가능성 센서 오류 ai 개발

2024-02-12

[기고] 불붙은 인공지능(AI) 개발 경쟁과 위험성

인터넷 백과사전인 위키피디아에서 올해 가장 조회 수가 많았던 단어는 ‘챗GPT’였다. 그리고 메리엄-웹스터 사전은 ‘진정성(authentic)’, 케임브리지 사전은 ‘환각(hallucinate)’, 콜린스 사전은 ‘AI’를 각각 올해의 단어로 선정했다. 모두 생성 AI와 연관된 단어들로 AI챗봇의 인기를 보여준다.     AI는 여러 단계를 거쳐 특정 역할을 수행할 수 있도록 개발된다. 데이터를 수집해 신경망에 입력하고 학습시켜 신경망이 연속적으로 다음 단어를 예측할 수 있게 하는 사전 훈련 과정, 모델을 유용하게 혹은 특정하게 변환하는 세부 조정 과정이 포함된다. 이런 과정들을 통해 AI는 챗봇, 혹은 의사 도우미, 군사전략가, 식당 도우미 등과 같은 특정 역할의 AI로 진화한다.   최근에는 이 과정에 ‘AI 해석가능성(Interpretability)’이 새롭게 추가됐다. 이는 모델 내부의 구성과 AI가 질문이나 프롬프트에 어떤 대답을 하는지, 어떻게 작동하는지를 파악하려는 시도다. 배경을 이해하면 AI가 거짓말이나 환각을 할 때 대처하기 쉽다는 것이다.     AI 위험성에 대한 불안은 오픈AI 최고경영자 샘 알트만의 해고와 복귀 사건에서도 드러났다. 2015년 설립된 오픈AI의 창립 목적은 ‘인류에 이로운 AI 시스템 구축’이다. 창립 멤버 중 한 명인 일론 머스크는 2018년 AI가 인류의 존재적 위협이 될 것이라며 불만을 품고 회사를 떠났다. 이듬해 최고경영자로 선임된 알트만은 AI 개발에 수백억 달러의 자금이 필요하자 회사를 비영리이면서도 이윤을 추구하는 이중 구조로 재편했다. 결국 이사회는 창립 목적을 준수한다는 이유로 알트만을 해고했지만, 그는 직원들 지원 덕분에 4일 만에 복귀했다.     챗GPT는 오픈AI 경영진이 최초 출시자가 되려는 욕망으로 출시 2주 전 갑자기 공개가 결정됐다. 그래서 옛날 버전(GPT 3.5)으로 출시해 반응을 확인하려고 했다. 또 연구용 AI로 포장하려고 ‘저강도 연구의 맛보기(low key search preview)’라 설명했다. 공개 직전에 그래픽 사용자 인터페이스(GUI)를 부착하여 사용이 편리하도록 만들고 이름을 챗GPT로 바꾼 결과는 대성공이었고, 오픈AI는 AI 개발 경쟁의 중심에 서게 됐다.     메타는 작년 1월 AI 중심으로 회사 일부를 재정비하고 챗GPT 보다 3개월 앞서 블렌더봇(Blender Bot)을 만들었지만 실패했다. 또한 챗GPT 공개 2주 전에 출시한 갈락티카(Galactica)는 환각 현상으로 인해 3일 만에 중단됐다. 그 후 올해 7월, 대용량 모델인 라마2를 개발해 외부 연구원들에게 배포하고 상업적으로 사용할 수 있게 했다.   마이크로소프트(MS) 최고경영자 사티아 나델라는 생성 AI의 가능성을 일찍 알아보고 오픈 AI에 10억 달러를 투자했다. 그 후 총 130억 달러의 투자 결정도 챗GPT-4가 컴퓨터 역사상 중요한 발전이며 MS가 이런 흐름의 선두에 설 것이란 확신에서 비롯됐다. 나델라는 지난 2월 7일 챗GPT를 탑재한 빙 챗봇을 공개했고, MS 주가는 곧바로 5% 급등했다.     구글은 MS의 빙 챗봇 공개를 미리 알고 하루 전인 6일 급하게 바드 챗봇을 출시했다. 그러나 바드가 틀린 정보를 말한 결과로 인해 주가가 하루 만에 8% 급락하기도 했다. 이에 구글은 지난 4월 구글브레인과 딥마인드 연구소를 통합하여 7개월 만에 챗GPT 보다 우수하다는 제미니니를 출시했다. 제미니니는 GPT나 라마와 같은 대용량 언어 모델의 이름으로 텍스트, 이미지, 음성, 영상 등 다양한 형태의 데이터를 동시에 다루거나 생성하는 다양식(multimodal) 모델이다.   현재 테크 기업들은 AI의 위험성에 대한 우려보다 주도권, 자존심, 이익을 우선해 개발에 속도를 내고 있다. AI 개발에는 사회윤리적 기준에 부합해야 한다는 ‘효과적인 이타주의(Effective Altruism)’와 신속한 AI 혁신의 잠재력을 중시하는 ‘효과적인 가속주의(Effective Accelerationism)’라는 두 가지 상충하는 접근 방식이 있다. 특히 Z세대를 중심으로 ‘효과적인 가속주의’가 힘을 얻고 있어 AI의 놀라운 역할 및 위험성에 대한 이해가 더욱 절실한 시점이다.  정 레지나기고 인공지능 위험성 ai 위험성 ai 개발 케임브리지 사전

2023-12-19

많이 본 뉴스




실시간 뉴스